En este análisis trabajamos con un corpus de 28 revistas editadas en Colombia entre 1881 y 1947. Cada una de las revistas esta representada en un modelo de datos que se carga en una variable correspondiente con el nombre de la revista.
Para el análisis, seleccionamos de los modelos únicamente las variables que nos interesan para tener una panorámica de las dinámicas de publicación en el peridodo estudiado. Estas variables son: nombre de la revista, coloaborador, rol, seudónimo, país de origen, título de la contribución, tipo de texto, fecha de publicación (formato ISO),traducción (Sí/No), traductor y cantidad de páginas.
revistasCreamos un data set único llamado revistas con todos
nuestros modelos reducidos. Este será la base para el análisis y
visualización de los datos.
Visualizamos las primeras filas en una tabla, para comprobar que todo este correcto.
A partir de los datos en nuestra variable revistas
creamos una tabla de datos con el cálculo de la frecuencia de
colaboradores en nuestro conjunto de 28 revistas. Esta tabla incluye las
variables Colaborador y Frecuencia
Obtenemos, de este modo, una tabla con 2293 entradas. Visualizamos las primeras 10.
En este punto, tomamos los anónimos de nuestro set de datos,y los guardamos en una variable. Luego se quitan de la tabla de colaboradores.
Aquí, importamos el modelo de datos de colaboradores ya
identificados, así como datos de otros autores en el modelo de datos del
proyecto Revistas culturales 2.0. De este modelo nos interesan
las variables : Colaborador, Fuente,
Seudonimo, Sexo, PaisOrigen,
Nacimiento y Muerte.
El objetivo de este proceso es comparar el conjunto de datos biográficos recolectados por cada autor y el modelo único con las entradas de las 28 revistas con las que estamos trabajando. Esto con el fin analizar los datos en relación a las variables biográficas de los autores (por ejemplo, nacionalidad). Asi mismo, se busca con ello trabajar únicamente con los autores que han sido plenamente identificados, como muestra del conjunto de datos total.
Con este proceso se busca hacer una comparación que permita tener una tabla con los nombres de los colaborades que todavía no han sido identificados en la recolección de datos o con los que todavía no se cuenta información suficiente.
Esta tabla se puede guardar para hacer correcciones y buscar más información sobre estos autores. Hasta el momento 923 autores sin datos biográficos.
Los resultados los podemos visualizar en un tabla.
Luego procedemos a crear una tabla con los autores que sí han sido identificados. En este caso tenemos 1369 entradas. Guardamos este archivo en un .csv para usos posteriores.
colaboradores_encontrados <- semi_join(colaboradores_revistas, datos_biograficos, by="Colaborador")
# 1331 (18-05-2024)
# 1369 (21-05-2024): Golondrina y Cultura
# write.csv(colaboradores_encontrados, file = "revistas_colaboradores_encontrados.csv", fileEncoding = "UTF-8", row.names = F)Ahora podemos visualizar el resultado de los autores encontrados en una tabla que muestra los primeros casos y la frecuencia de aparición en el corpus (número de colaboraciones).
figura_5 Figura 5. Colaboradores más prolíficos
También podemos visualizar los colaboradores mejor conectados. En este caso solo visualizamos los autores con publicaciones en más de ocho revistas.
figura_6Figura 6. Colaboradores mejor conectados
figura_7Figura 7. Porcentaje de textos por tipología
figura_8Figura 8. Mirada diacrónica de las tipologías textuales
figura_9Figura 9. Porcentaje de textos traducidos
Número total de traducciones: 817.
figura_10Figura 10. Traductores con mayor número de textos
figura_11Figura 11. Mapa de nacionalidades
figura_12Figura 12. Colaboraciones por país
Para la visualización interactiva creamos una tabla de nodos y una tabla de aristas con la siguiente estructura:
id (el índice o identificador)
vertex (el nombre de los nodos)
nsum (la suma total de publicaciones)
Mientras que los autores con mayor vínculos se determinaron por el
número absoluto de apariciones en las revistas, ahora calcularemos la
betweenness que tiene cada revista. Para ello utilizamos la
biblioteca tnet creada para trabajar con redes bimodales,
como la nuestra.
El resultado lo podemos ver en la siguiente tabla:
Las revistas con una mayor “betweenness” son Sábado y Alpha. Quizás dos de los proyectos revisteriles antioqueños más importantes, que representan posiblemente dos generaciones de escritores.
Ahora procedemos al cálculo de la modularidad en nuestro conjunto de
trece revistas. Esto lo hacemos utilizando el algoritmo
cluster_walktrap. Recuperamos para este próposito las
variables lista de nodos y aristas_id. Con la
biblioteca igraph convertimos nuestros nodos y nuestras
aristas en una grafo.
El resultado arroja que hay una modularidad del 64,2%. Este número representa la capacidad o posibilidades de agrupación que tiene las revistas del corpues a partir de sus colaboradores. Entre mayor es el porcentaje, menos revistas aparecen agrupadas en un módulo. En este caso 17 revistas no hacen parte de ningún modulo. Las 11 restante forman 5 módulos. Estos se podrán ver mejor en la visualización interactiva de la red.
Versión interactiva de la red de revistas